生成的对抗性模仿学习(GAIL)可以学习政策,而无需明确定义示威活动的奖励功能。盖尔有可能学习具有高维观测值的政策,例如图像。通过将Gail应用于真正的机器人,也许可以为清洗,折叠衣服,烹饪和清洁等日常活动获得机器人政策。但是,由于错误,人类示范数据通常是不完美的,这会降低由此产生的政策的表现。我们通过关注以下功能来解决此问题:1)许多机器人任务是目标任务,而2)在演示数据中标记此类目标状态相对容易。考虑到这些,本文提出了目标感知的生成对抗性模仿学习(GA-GAIL),该学习通过引入第二个歧视者来训练政策,以与指示演示数据的第一个歧视者并行区分目标状态。这扩展了一个标准的盖尔框架,即使通过促进实现目标状态的目标状态歧视者,甚至可以从不完美的演示中学习理想的政策。此外,GA-GAIL采用熵最大化的深层P-NETWORK(EDPN)作为发电机,该发电机考虑了策略更新中的平滑度和因果熵,以从两个歧视者中获得稳定的政策学习。我们提出的方法成功地应用于两项真正的布料操作任务:将手帕翻过来折叠衣服。我们确认它在没有特定特定任务奖励功能设计的情况下学习了布料操作政策。实际实验的视频可在https://youtu.be/h_nii2ooure上获得。
translated by 谷歌翻译